En 2020, Eurogroup Consulting publie une étude sur l’éthique des organisations à l’ère du numérique : vers une intelligence artificielle responsable. En 2 ans, L’évolution du contexte sociétal, le développement des technologies et des usages continuent à questionner les enjeux éthiques de l’IA pour les organisations et Eurogroup Consulting a enrichi et actualisé ses constats et recommandations en abordant notamment ces questions :
- Comment un cadre règlementaire se transforme-t-il en avantage compétitif pour les organisations ?
- Pourquoi penser nativement une IA éthique ?
- Comment les enjeux d’éthique de l’IA doivent-ils intégrer les stratégies des organisations ?
Téléchargez l'étude !
Pour télécharger le fichier, veuillez remplir le formulaire
SYNTHÈSE DES ÉVOLUTIONS CONSTATÉES EN 2 ANS
Des organisations globalement plus matures
Sous la pression des demandes des utilisateurs et d’une règlementation croissante, les enjeux éthiques sont mieux connus. Des initiatives émergent pour tenter de certifier les algorithmes.
Les acteurs impliqués dans la conception et le développement de solutions algorithmiques sont mieux formés et sensibilisés aux enjeux. Le top management est davantage conscient des opportunités offertes et des risques que sont susceptibles d’induire les biais éthiques.
La communication devient plus volontariste, les organisations étant conscientes de la nécessité de rassurer tant l’utilisateur que le régulateur sur la prise en compte des enjeux éthiques.
Néanmoins, l’approche de l’éthique de l’IA semble toujours guidée par une approche de maîtrise des risques, et non de création de valeur. Il s’agit encore pour les organisations de prouver que leurs solutions respectent un cadre de contraintes éthiques et de démontrer que l’auto-régulation peut suffire à limiter les risques de dérive.
Nos recommandations toujours d’actualité
Les enjeux éthiques sont mieux connus mais ne sont pas toujours intégrés comme éléments durables et incontournables de la stratégie des organisations vis-à-vis de l’intelligence artificielle, voire plus globalement de son développement numérique ou même métier. Les instances de gouvernance chargées de se prononcer sur le sujet restent rares. Ceci limite sa visibilité comme sujet stratégique.
- Les enjeux éthiques sont mieux connus mais ne sont pas toujours intégrés comme éléments durables et incontournables de la stratégie des organisations vis-à-vis de l’intelligence artificielle, voire plus globalement de son développement numérique ou même métier. Les instances de gouvernance chargées de se prononcer sur le sujet restent rares. Ceci limite sa visibilité comme sujet stratégique.
- La conception des solutions algorithmiques intègre davantage les besoins éthiques. Néanmoins, la démarche n’est que rarement menée en continu, tout au long du cycle de vie de la solution, en particulier une fois que les projets sont déployés.
- Enfin, si la communication et la mobilisation de l’écosystème des organisations est bien plus mature qu’en 2020, comme en témoigne la forte augmentation des publications sur le sujet, et les nombreuses initiatives lancées pour valoriser l’éthique, et pour penser un cadre permettant la certification éthique des algorithmes, l’information doit encore percoler au sein des organisations pour se traduire dans le quotidien.
UNE RÉGULATION ENCORE PEU PERÇUE COMME SOURCE DE VALEUR
Si la régulation de l’IA suscite des inquiétudes parmi les concepteurs et utilisateurs de ces solutions, elle peut aussi être source de valeur. L’exemple du Règlement Général sur la Protection des Données (RGPD) peut être lu sous cet angle.
L’exemple du RGPD : la régulation comme création de valeur
La création de valeur peut être étudiée selon plusieurs aspects : respect des contraintes réglementaires, inclusion dans la stratégie digitale, fiabilisation du traitement des données, confiance en l’opinion publique, perception de la valeur par l’entreprise, etc.
Après l’entrée en vigueur du règlement européen, les organisations ont amorcé leur mise en conformité, comprenant trois volets :
- Le respect des contraintes réglementaires,
- L’inclusion dans la stratégie digitale,
- Et la fiabilisation du traitement de la donnée.
Aujourd’hui, de nombreuses organisations semblent s’être acculturées au RGPD. En effet, les changements opérés pour se mettre en conformité sont largement documentés, et les entreprises se sont mises en ordre de marche sur les trois aspects cités précédemment. Ce sont ces trois dimensions de la transformation qui vont créer de la valeur pour les organisations.
La régulation ne pourra se faire que par le cadre réglementaire
La loi protège les individus et la société de certains comportements estimés négatifs. Cependant, elle rencontre des limites dans sa capacité à anticiper les impacts des technologies du numérique. Confrontée aux risques éthiques de l’intelligence artificielle, la loi ne peut, seule, assurer la protection des individus. A l’action répressive de la législation doit se développer l’autorégulation des organisations dans leur utilisation de l’IA. Leur connaissance approfondie du secteur et des biais possibles des formes d’IA utilisées en fait un atout majeur.
Outre la valeur intrinsèque portée par l’éthique en tant que telle, les organisations ont de plus un intérêt à s’intéresser à ces problématiques, pour :
- Créer de la valeur grâce à des technologies socialement acceptées et accroître la confiance des usagers/clients. Les enjeux éthiques sont mieux connus mais ne sont pas toujours intégrés comme éléments durables et incontournables de la stratégie des organisations vis-à-vis de l’intelligence artificielle, voire plus globalement de son développement numérique ou même métier. Les instances de gouvernance chargées de se prononcer sur le sujet restent rares. Ceci limite sa visibilité comme sujet stratégique.
- Favoriser l’acceptation des collaborateurs : en interne, introduire l’IA dans un cadre éthique et transparent, dans l’optique de compléter le travail de l’humain et non de le supplanter, permet de rassurer les collaborateurs et de minimiser les risques de résistance au changement.
UN BESOIN ÉTHIQUE RENFORCÉ PAR UNE DÉPENDANCE NUMÉRIQUE CROISSANTE
La crise sanitaire a entraîné un développement des usages numériques, à la fois dans un contexte professionnel et privé (télétravail, scolarité à la maison, soins à distance, démarches administratives en ligne, commandes e-commerce…). Ainsi, la quantité de données produites a considérablement augmenté, avec pour conséquence le perfectionnement des algorithmes de traitement de données. Ces évolutions permettent l’amélioration d’une offre de produits et services toujours plus personnalisée, et l’apparition de nouveaux services.
Ces nouveaux usages induisent donc une augmentation de la masse de données exploitables, et par conséquent, de nouvelles opportunités mais présentent également des risques éthiques, qu’il convient de prendre en compte, notamment dans le cadre des réflexions et actions autour des enjeux croissants de souveraineté numérique en France et en Europe.
DES INITIATIVES INSTITUTIONNELLES POUR PENSER L’IA ÉTHIQUE ET RÉGULER SES USAGES
L’essor de l’IA ne peut se faire sans une réflexion éthique sur ses limites et garde-fous. Les Etats et institutions publiques se sont emparés du sujet pour définir ce cadre d’emploi.
L’initiative de la Commission européenne
La Commission européenne a déposé en avril 2021 un projet de règlement européen sur l’IA. Il a vocation à définir la vision européenne d’une IA qui serait éthique. La Commission adopte une démarche d’évaluation et de réduction des risques.
La Commission identifie, selon les domaines d’application, des risques jugés inacceptables, notamment dans le champ de la sécurité et des droits individuels, des risques élevés, concernant l’énergie, les transports ou la justice, pour lesquels des restrictions à l’usage de l’IA pourront être mises en place.
Les domaines faisant l’objet de risques jugés limités se verront recommandés quant à eux une obligation de transparence, notamment en termes d’informations aux usagers. Cette initiative de la Commission traduit tout d’abord une prise de conscience sur le caractère stratégique et incontournable de l’intelligence artificielle dans le développement futur des sociétés et des économies, qu’il convient donc d’encourager. Pour autant, ce développement ne saurait s’affranchir des valeurs communes de l’Union.
La stratégie nationale de la France pour l’IA
La France a publié en novembre 2021 sa stratégie nationale pour l’intelligence artificielle. Elle veut faire de la France un leader dans le secteur et pose pour ce faire un socle pour le développement à long-terme de l’écosystème d’IA à tous les stades : R&D, applicatifs, diffusion, soutien et encadrement du déploiement. Ce développement est pensé d’emblée dans un cadre ne pouvant être qu’éthique. La France s’engage ainsi à « fournir des efforts pour construire l’IA responsable et digne de confiance de demain », condition sine qua none pour l’appropriation des technologies par l’usager.
Quatre objectifs sont identifiés pour l’action de la France dans ce domaine :
- Soutenir l’émergence d’un consensus international sur les bienfaits et les risques de l’IA ;
- Promouvoir l’élaboration d’un modèle et des principes fondés sur une IA de confiance au niveau national, européen et international ;
- Lancer des initiatives concrètes mettant l’IA au service de l’Humanité ;
- Faciliter l’émergence d’un consensus et de règles communes au niveau européen.
Plus concrètement, la France a mis en place un comité pilote d’éthique du numérique, établi au sein du Comité Consultatif National d’Ethique[1], en décembre 2019, chargé d’appréhender de manière globale les enjeux éthiques du numérique, et de l’intelligence artificielle en particulier. Dans le domaine sensible de la Défense, un comité d’éthique de la défense a été créé au ministère des Armées, qui conduit la réflexion sur les enjeux liés à l’évolution de l’armement. Ce comité a ainsi rendu un avis sur les systèmes d’armes létaux autonomes (SALA)[2].
Ces exemples montrent la prise de conscience des pouvoirs publics, et leur volonté de concilier deux problématiques :
- Encourager le développement de l’IA, indispensable à la compétitivité et la capacité d’innovation du monde de demain ;
- Garantir que ce développement ne se fera pas contre le citoyen, et que l’IA ne viendra pas menacer ses libertés individuelles.
Il s’agit par conséquent pour les institutions publiques de trouver le juste compromis entre libération des énergies à des fins d’innovation, et par conséquent compétitivité et dynamisme des acteurs de l’écosystème IA, et acceptabilité politique, sociale et juridique de cet essor. Se distingue des initiatives lancées une volonté d’identifier les domaines les plus à risque, et d’opter pour la mise en place de lignes directrices déclinables, secteur par secteur.
Aurélie Simard, Doctorante en sciences de gestion Université Paris-Saclay
L’« innovation responsable », un cadre pertinent pour les organisations
Pourquoi l’ « innovation » ?
Considérant l’IA sous l’angle de l’un de ses créateurs, Marvin Lee Minsky qui la définissait comme la « construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains », elle pourrait être alors considérée comme une innovation, définie elle-même comme l’introduction de nouvelles idées, méthodes ou choses.
Pourquoi « responsable » ?
L’éthique, selon un courant philosophique dit conséquentialiste, pourrait être synonyme de « responsable » en ce qu’elle implique de mener ses actions en prenant soin de limiter ses impacts indésirables sur les ressources environnementales et sociales mobilisées.
Ainsi, l’innovation responsable, qui renvoie à un domaine bien connu des sciences de gestion depuis une dizaine d’années, pourrait inspirer les organisations afin de s’engager résolument dans l’IA, et d’emblée une « IA éthique ».
Une organisation qui innove de manière responsable s’assure de se donner les moyens d’honorer 4 grandes principes (Stilgoe et al., 2013) :
- Anticipation : examen des conséquences attendues et inattendues de l’innovation.
- Réflexivité : prise de conscience des valeurs, biais et normes sociales qui façonnent de manière tacite ou explicite l’innovation.
- Réactivité : adaptation aux effets émergeants des innovations et aux contextes dans lesquels elles se déploient.
- Inclusivité : implication des parties prenantes incluant le public dans le processus de développement.
Le développement de ces principes passe par l’animation d’une large collectivité de parties prenantes mobilisées vers des objectifs stratégiques partagés, dans des lieux partagés d’innovation responsable, dans et hors de l’organisation (projets clients, marchés, partenaires, R&D) (Pavie, 2012). Dans le processus de décision des projets IA, les choix technologiques et organisationnels d’implémentation et les modalités d’évaluation, ces 4 principes semblent constituer une bonne boussole pour innover de manière responsable grâce à une IA éthique.
Aux organisations de saisir l’opportunité de création de valeur
Conscients de cette poussée réglementaire, les acteurs privés travaillant sur l’IA tentent de prendre les devants et de promouvoir leur autorégulation. Ces initiatives privées témoignent certes d’une prise de conscience du caractère impérieux de garantir une IA éthique, mais aussi de la pression que représentent ces projets de règlementation.
Une des craintes de l’écosystème privé est de se voir imposer un cadre juridique trop contraignant, pesant de ce fait sur leur capacité d’innovation, dans un domaine fortement concurrentiel. Les démarches engagées semblent donc avoir davantage pour objectif d’éviter la mise en place d’une règlementation trop contraignante pour leurs activités, en envoyant des signaux positifs aux pouvoirs publics quant à leur capacité de s’autoréguler et de fixer eux-mêmes des normes éthiques acceptables, que de produire de la valeur grâce à l’éthique.
En effet, l’éthique représente un gisement de valeur incontournable pour l’intelligence artificielle, dans la mesure où elle constitue un facteur potentiellement différenciant dans le choix du consommateur.
Les organisations productrices et utilisatrices d’IA sont donc à un moment charnière : à mesure que la poussée règlementaire se concrétise, la valeur intrinsèque que représente une IA éthique diminue. Il ne s’agit plus de fournir une valeur supplémentaire à ses algorithmes par le biais de l’éthique, qui soit différenciante sur un marché, mais simplement de respecter la règlementation.
Le mouvement est ainsi celui d’un passage d’une logique de production de valeur à celle d’une mise en conformité. Fort de ce constat, nous avons la conviction que les organisations doivent se saisir plus en profondeur de l’enjeu éthique de l’intelligence artificielle pour la transformer en offre de valeur, sous peine de voir cette valeur disparaître au profit d’une simple mise en conformité avec la règlementation.
Pour capter cette valeur, elles doivent mettre en place un système de management de l’éthique de l’intelligence artificielle, à même de capter sa valeur, de la valoriser, et de garantir le respect des mesures associées. C’est tout le sens des dispositifs de prise en compte de l’éthique de l’IA de manière transverse dans toute l’organisation, soutenus par des labels dédiés à ces problématiques.
Alexandre MartinelIi, CEO et co-fondateur de La Javaness
La Javaness s’engage pour un numérique plus sobre, éthique et inclusif
Vous avez reçu cet été le label numérique responsable niveau 2, pourquoi avez-vous engagé votre entreprise dans une telle démarche ?
A l’échelle de l’Europe, maitriser la diffusion de l’IA est une condition nécessaire pour collectivement assurer notre résilience aux crises sanitaires, écologiques, et géopolitiques et de compter, à plus court terme, dans la compétition internationale, pour dégager les ressources qui nous permettront demain, après demain, de financer notre modèle social.
Dans le même temps, le numérique est un grave “centre de coût” pour l’environnement, responsable de 4% des émissions de gaz à effet aujourd’hui, potentiellement 8% d’ici 2025. Dans ce contexte de profondes mutations, La Javaness prend aussi un nouveau virage, celui de l’âge de raison, qui lui permet, après plus de 6 ans à innover grâce à la donnée et l’IA, d’entrer dans une phase d’industrialisation. L’expérience engrangée et nos efforts continus en R&D (20 000 jours hommes investis dans notre socle IA), nous permet aujourd’hui d’être un acteur de référence du développement à l’échelle de l’IA de très grandes structures règlementées comme l’AMF, RTE ou Pôle emploi. Il m’a donc semblé très important, à cette étape, de l’histoire et de notre histoire, de faire un état des lieux précis sur la robustesse notre organisation et notre niveau d’engagement pour poursuivre notre ambition de partenaire IA de confiance des grandes organisations. La démarche proposée par l’INR, m’a semblé être la plus aboutie.
Finalement, que fait-on à La Javaness pour être une organisation « numérique responsable » ?
Notre programme numérique responsable est fondé sur 3 piliers. Le premier concerne notre proposition de valeur en tant qu’acteur français indépendant de l’IA. « Mettre l’IA de confiance au service de la compétitivité en Europe et des grands défis de notre temps, en permettant à nos clients de renforcer leur autonomie stratégique, tout en assurant le respect des ressources engagées et d’éviter les risques de dérive ».
Lorsque nous contribuons auprès de Pôle emploi à favoriser le retour durable à l’emploi ou que nous aidons RTE à densifier ses capacités IA pour prévoir les réseaux énergétiques de demain, nous sommes évidemment mobilisés à répondre à nos engagements contractuels. Mais nous sommes aussi animés, en tant que partenaire d’innovation, par leur mission d’intérêt général. Ces choix sont porteurs de sens et de communauté d’intérêt, avec l’ensemble de nos collaborateurs mais aussi dans les liens très forts que nous lions avec nos clients et nos partenaires.
Le second concerne les solutions que nous développons pour nos clients de manière « responsable by design ». En particulier, nous investissons recherche appliquée concerne le travail sur des algorithmes très peu gourmands en données. Moins de consommation d’énergie, plus de protection des données personnelles, plus de sécurité et aussi pour l’efficacité. En effet, souvent l’accès aux données est compliqué chez nos clients. Plus globalement, nous engageons l’ensemble de nos équipes de développement, de design, business dans des logiques d’éco-conception. Un troisième axe est celui que nous appelons notre usine IA : il s’agit de développer ce que nous appelons des accélérateurs, des composants technologiques, fonctionnels et méthodologiques réutilisables pour sécuriser le passage à l’échelle de l’IA. Par exemple, nous avons au fil de notre expérience développé un outil « maison » d’annotation des données (une étape essentielle dans l’utilisation de modèles algorithmiques), qui limite le nombre de données nécessaires en entrée. Nous venons de la mettre à disposition de la communauté libre pour essaimer les pratiques vertueuses.
Notre troisième pilier concerne la qualité et la valeur de notre relation avec nos parties prenantes (clients, collaborateurs et fournisseurs) pour grandir tous ensemble sur ces sujets.
EN SAVOIR PLUS
L'expertise Numérique & SI chez Eurogroup Consulting
Avec Eurogroup Consulting, passez à l’échelle votre transformation numérique pour capter la valeur métier des technologies ! Nous accompagnons votre organisation dans la réponse aux grands enjeux technologiques, numériques et SI. De même, nous accompagnons sa traduction dans votre stratégie, vos modes de fonctionnement et projets. Ruptures technologiques et nouveaux usages (IA, Data, Cloud, Blockchain, IoT), cybersécurité et RGPD, numérique responsable, innovation…
Adeline Taravella
Directrice Associée
Sieglin Stevens
Manager